Discoverאלישע והזוויותכשהבינה המלאכותית מאבדת את שפיותה [2-7]
כשהבינה המלאכותית מאבדת את שפיותה [2-7]

כשהבינה המלאכותית מאבדת את שפיותה [2-7]

Update: 2024-12-09
Share

Description

שלום כולם, וברוכים הבאים לאלישע והזוויות, עונה שניה פרק מספר שבע! היום ה-9 בדצמבר, 2024, ואנחנו נדבר היום על כל מני דברים, כולל מודלים שמאבדים את שפיותם! אז יהיה מעניין!

חוץ מזה, הרבה זמן כבר שאני שוכח להדגיש, למי שמעוניין, את קיומו של אתר אינטרנט לפודקאסט: הלינק נמצא בתיאור הפרק בספוטיפיי או ביוטוב, ומי שנרשם לאתר מקבל מייל כשיוצא פרק חדש, וגם יכול לקרוא את התמלול של הפרק. במיוחד בעונה הזו, התמונות והייצוגים הויזואליים מאד עוזרים, אז יש אתר כזה, ובואו תירשמו!

בואו נפתח את הפרק שלנו היום בשאלה, כדי לעורר את התיאבון: מה היה קורה אם היינו מאמנים את GPT על הפלט של GPT עצמו?

כדי לוודא שכולנו מיישרים קו, בואו ואפרק את השאלה הזו לגורמים שלה, על פי כל הדברים שראינו בעונה עד כה. נתחיל בתזכורת על איך הכלי הזה שקוראים לו GPT נוצר. GPT זו בעצם מערכת AI ש"האכילו" אותה המון קטעי טקסט שכתבו בני אדם, היא חילצה את התבניות שחבויות בהם בתהליך אינדוקטיבי, באופן כזה שהיא יכולה להפעיל את התבניות בתהליך דדוקטיבי ולייצר טקסטים חדשים. לתהליך האינדוקציה נקרא "אימון" או "למידה", בעוד שלתהליך הדדוקציה נקרא “הפעלה” של המודל המאומן. ושווה לזכור - המודל הזה מתחיל טאבולה ראסה, נקי מכל מידע על שפה, ורק תהליך החשיפה לדאטה אנושי מעצב אותו, כמו פלסטלינה, כך שהטקסטים שהוא מייצר יהיו דומים לטקסטים שהוא אומן עליהם, כלומר טקסטים אנושיים.

ובכן, נחזור עכשיו לשאלה שבה פתחתי. נניח שיש לי מודל שפה משלי בשם ג'פטו, שהוא בעצם GPT של היום. אז עכשיו אני יכול לבקש ממנו לייצר לי המון טקסטים בהמון נושאים, ואז לקחת אותם, ולהשתמש בהם כדי לאמן GPT חדש. אנחנו נקרא לו פינוקיו, שהרי בעצם ג'פטו כאן הוא זה שמאמן את פינוקיו, ובכך נופח בו חיים. ואז השאלה היא - באיזו איכות יהיו הטקסטים של פינוקיו? או במילים אחרות - האם פינוקיו יהיה ילד אמיתי, או רק בובה על חוטים?

השאלה הזו תלווה אותנו לאורך הפרק היום, אבל עוד לפני זה היא מתקשרת לפרק שעבר. כפי שאתם זוכרים, דיברנו שם באופן נרחב על הקשיים שיש בהשגת דאטה שבני אדם ייצרו לצורך אימון של מודלים. כיוון שכך, החלום הרטוב של עולם ה-AI הוא שלא נזדקק לבני אדם במשימה הזו בהיקפים גדלים והולכים, וזאת משום שנוכל פשוט לבקש מה-AI של הדור הקודם לייצר לנו דאטה שכזה. אם ג'פטו יכול לייצר דאטה באיכות גבוהה דייה, כך שפינוקיו יהיה ילד ככל הילדים, אז גם אם יגמר כל הדאטה הזמין באינטרנט אפשר יהיה לייצר עוד דאטה סינתטי בקלות רבה, בלחיצת כפתור.

בשל החשיבות הרבה של הנושא הזה, נעשו ניסויים מדעיים בעניין, ואני אסקור כמה מהם בהמשך הפרק. בינתיים, קחו אולי איזו דקה לחשוב מה קרה באותם ניסויים. האם התברר שפינוקיו הוא מודל שקול בעוצמתו לג'פטו? אולי הוא אפילו היה חזק ומדוייק יותר ביכולותיו? או שמא להיפך, הביצועים שלו התדרדרו והתכנסו למשהו בינוני? התשובות - בהמשך.

בפרק שלנו היום אני רוצה להמשיך את מה שהתחלנו בפרק הקודם, ולטעון שההישענות על דאטה אנושי הינה עקב האכילס של מודלי ה-AI העדכניים. זה כמובן די מצחיק לחשוב שאני שוקל להציג טיעון שכזה, שכן ההישענות הזו היא גם פריצת הדרך שאיפשרה, בעשור האחרון, למהפכת ה-AI המדהימה שסביבנו. אבל תזכרו את מה שראינו בשבוע שעבר: שבדאטה שבני אדם מייצרים יש בהחלט המון מידע שיכול לעזור לנו לבנות כלי AI חזקים, אבל יש מקום להטיל ספק בשאלה אם זה מספיק כדי להגיע לבינה מלאכותית שהיא באמת תבונית. כלומר, הטיעון שלי יהיה שאנו צריכים עוד מהפכות משמעותיות ב-AI לפני שנוכל להגיע לבינה מלאכותית אמיתית, וכל עוד אנחנו מתעקשים להישען בעיקר על אימון מתוך דאטה, אנחנו מפספסים משהו גדול מאד בסיפור.

כדי להדגים את זה, אני רוצה שנתחיל את המסע שלנו בניתוח מדוקדק יותר של מבחן טיורינג. כפי שאתם זוכרים, במבחן טיורינג יושב לו אדם - נניח, אישה - ומקבלת את תפקיד הבוחנת. היא מנהלת שיחה עם דמות כלשהי דרך צ'ט, ולאחר כמה דקות של שיחה מודיעה אם לדעתה מדובר במחשב או אדם. בחינה מדוקדקת של המבחן הזה תגלה משהו חשוב, שכבר רמזנו עליו בפרק השני של העונה: הגורם האנושי שבבדיקה הזו איננה חלק מהותי מהמבחן, אלא פשוט המדד הכי זמין לתבונה שיש בידינו. טיורינג השתמש במדד הזה של "האם המכונה הצליחה להתל בבוחנת" פשוט בשל הזמינות של המדד והאינטואטיביות שלו. המהות של מבחן טיורינג, לעומת זאת, זו הקביעה הבאה: שאם מכונה מפיקה פלט באיכות ששקולה לזה של פלט אנושי - אזי היישות הזו תיחשב תבונית.

שווה להדגיש את החלק הראשון - שבדיקה אנושית של איכות הטקסט איננה המרכיב המהותי במבחן טיורינג - כיוון שבניסויים שנעשו מתברר שיש כל מני בעיות בלסמוך על עצמנו. איך לומר זאת בעדינות - אנחנו לא כאלה טובים בלזהות תבונה אנושית כמו שאנחנו חושבים. קחו לדוגמה את התוצאות של מאמר שיצא לפני כשנה, שבו ניסו כמה חוקרים לבדוק עד כמהGPT גרסה 4 מצליח לעבור את מבחן טיורינג. בניסוי הכי מוצלח שלהם, הצליח GPT לשכנע 50% מאלו שדיברו איתו דרך צ'ט שהוא בעצם בן-אדם, שזו באמת הצלחה מרשימה ביותר (מערכות ישנות יותר שפותחו בשנות ה-60 של המאה הקודמת, כמו ELIZA, הגיעו להצלחה של 22% בלבד). אבל באותו מאמר גם הופיע פרט אחר, חשוב לא פחות, שקשור לתמונת המראה לתוצאה הזו: באותו ניסוי, כאשר מן העבר השני של הצ'אט היו בני אדם ולא מכונה, הבוחנים זיהו שמדובר בבני אדם רק ב-66% מהפעמים. במילים אחרות, בשליש מהפעמים שהם דיברו עם בני אדם, חשבו הבוחנים האנושיים שמדובר דווקא במכונה! אז נכון, בני האדם היו משכנעים יותר מה-50% של GPT, אבל התוצאה הזו כשלעצמה מטילה צל כבד על הקונספט הבסיסי של מבחן טיורינג: שבני אדם יודעים לזהות חשיבה אנושית דרך צ'ט אינטרנטי.

מדובר, כמובן, רק במאמר אחד, ואפשר לצלול לפרטיו ולאתגר אותו וכן הלאה. אבל הוא כן ממחיש שהמסנן האנושי איננו בהכרח מדוייק. ולכן, אפשר לשדרג את מבחן טיורינג אם נמצא דרכים אחרות לבחון את הפלט הזה, דרכים שאינם עוברות דרך הערכה אנושית סובייקטיבית. כך אולי נוכל לדייק יותר את ההערכות שלנו לגביי תבוניות המכונה. אבל - האם יש דרכים כאלו?

התשובה היא כמובן שכן, יש כל מני דרכים אלטרנטיביות לבדוק את זה, ואת חלקן אנחנו גם נפגוש בפרקים עתידיים, אם הכל יצא לפי התכנית. היום ספיצפית אנחנו נלך על משהו קצת יותר מגניב, שכמו האקדח של צ'כוב כבר ראיתם במערכה הראשונה: הניסוי הזה עם ג'פטו ופינוקיו! שימו לב:

* ג'פטו אומן על דאטה אנושי - זה נתון.

* פינוקיו מאומן על דאטה שג'פטו יצר. גם זה נתון.

* אז אם הפלט של ג'פטו הוא פלט ששקול לפלט אנושי - כלומר, אם ג'פטו עומד בדרישות מבחן טיורינג - פינוקיו אמור להיות שקול לג'פטו. כלומר, אם ג'פטו הצליח להטמיע אצלו בינה ששקולה לבינה אנושית, אז הביצועים של יציר כפיו, של פינוקיו, לא אמורים ליפול מאלו שלו עצמו. מש”ל.

אולי זה היה קצת קשה לעקוב, אז בואו תנו לי רגע להציג את העניין מזווית אחרת, עם דימו ויזואלי שבטח יהיה אינטואטיבי יותר לרובכם. נניח שיש לכם תמונה שצייר חבר שלכם, ומכונת צילום. אתם לוקחים את התמונה, מצלמים עותק שלה במכונה, ואז משווים בין התמונה המקורית לבין התמונה המצולמת. אם מכונת הצילום מושלמת, לא אמור להיות הבדל בין שתי התמונות. ואם יש הבדל בין שתי התמונות, זה אומר שמשהו בפעולה של מכונת הצילום אינו מדוייק.

זה המשל. הנמשל הוא שמכונת הצילום היא ה-AI שלנו, תמונת המקור היא דאטה האימון האנושי, והצילום שיוצא מהמכונה הוא הדאטה הסינתטי שה-AI מייצר בעצמו. עכשיו, אם יש לנו AI שתפס באופן מושלם את מהות השפה והשיח האנושיים, אז לא אמור להיות הבדל בין שני סוגי הדאטה. ולעומת זאת, אם יש הבדל ניכר בין התמונה המקורית לצילום, הרי שזה אומר שמשהו ב-AI שלנו איננו מדוייק; מכונת הצילום המתוחכמת שבנינו כנראה מכילה שריטות על הזכוכית שלה, שמעוותים את התוצרים שלה.

זהו המבחן שאני מציע לשדרוג מבחן טיורינג - בואו נקרא לו כאן "מבחן הזוויות". וכיוון שעכשיו הוא יושב לנו טוב בראש, שווה לשאול - מה קורה שמפעילים אותו?

ובכן, אני שמח לבשר לכם שאני לא היחיד שחשב עליו, ויש כמה מאמרים שיצאו בנושא. ב-2023, עמוק בתוך ההתלהבות מכל ה-GPT למיניהם, ישבו כמה חוקרים מאוניברסיטת רייס (RICE) שבטקסס, ועשו ניסוי דומה למה שתיארתי. הם לקחו מודלים מוכרים לייצור תמונות של פרצופים, וייצרו איתם הרבה תמונות של פרצופים. עם התמונות הללו הם אימנו מודל חדש, וייצרו איתו תמונות של פרצופים גם כן. וכך הלאה, דור אחרי דור של מודלים, כל דור מבוסס על תוצרי הדור הקודם. כלומר, הם בעצם עשו את "ניסוי ג'פטו ופינוקיו" שלנו שוב ושוב, בשרשרת, ובסוף התהליך הם בדקו מה האיכות של התמונות שכל דור ייצר.

לקראת הניסוי, אני מדמיין לעצמי מה חשבו החוקרים שהם יקבלו. הגירסה האופטימית היתה כנראה שהתמונות בכל דור יהיו טובות כמו הדורות שקדמו להם. הגירסה הפסימית יותר היתה שהתמונות החדשות יפלו באיכותן, בגלל חוסרים כלשהם במודל, אבל יתייצבו על רמה סבירה כלשהי. ובכן, מה אתם חושבים שקרה?

מה שקרה היה משהו אחר לחלוטין - גרסה פסימית על סטרואידים. בכל סבב שכזה, הביצועים של המודל הלכו והתדרדרו. התמונות שנוצרו לאחר כמה דורות הכילו עיוותים, פסים מוזרים שהחלו להופיע על הפרצופים שהמודל יצר:

בגרסאות שונות של הניסוי המגוון האנושי שהמודלים יצרו בכל דור חדש הלך והצטמצם, והתכנס לאוסף תמונות שנראות מאד דומות זו לזו - תמונות של גברים ונשים לבנים עם שער כהה ועיניים מערביות, שמביטים ישר למצלמה ומחייכים. שימו לב כאן לאוסף התמונות שהיה בהתחלה…

… לעומת אלו שנוצרו לאחר כמה דורות:

בכל אופן, לתופעה הזו קראו כותבי המאמר, model autophagy disorder, ראשי תיבות MAD, כלומר אי-שפיות. בכך הם ניסו לומר - כשמתמידים בתהליך הזה לאורך זמן, המודלים מתנהגים כאילו הם מאבדים את שפיותם. בהקשרים אחרים יש שקראו לתופעה הזו Hapsburg AI, בהתייחסות לשושלת האפסברג האוסטרית, שמרוב זה שהם התחתנו כל הזמן בתוך המשפחה הם דיללו את היציבות הגנטית שלהם, פיתחו כל מני מוטציות מוזרות ואולי הדבר אף גרם להכחדת השושלת.

שווה לשים לב במיוחד לעובדה שביצועי המודלים בניסוי נהיו גרועים יותר מדור אחד לשני. אם נניח היינו רואים שיש ירידה מג'פטו המקורי לפינוקיו בכמה אחוזים, אבל משם הדברים מתייצבים ושומרים על רמת איכות נתונה מדור אחד לדור הבא, זה היה סיפור אחר. במצב שכזה היינו אומרים - “אוקיי, הצלחנו לתפוס 80% מהיעד באופן מדוייק”. בפועל מה שהניסוי הזה המחיש הוא שה-AI לא באמת יודע להבחין בין עיקר לטפל ולסנן טעויות שהוא נחשף אליהם, ולכן כל דור של אימון רק מעצים את העיוותים שהוא ראה בדאטה של הדור הקודם. אם נחזור שוב למשל מכונת הצילום שלנו, נראה לי שברור לכולנו שיש הבדל בין מקרה שבו מכונת הצילום פשוט לא עובדת טוב עם דפים מקומטים, לבין מצב שבו יש שריטה על הזכוכית של מכונת הצילום עצמה. במקרה הראשון מדובר בבעיה מקומית ומוגבלת למקרים נדירים, שלא תפריע לרוב, בעוד במקרה השני זו בעיה שתשליך על כל הצילומים כולם, בלי יוצא מן הכלל. וזה מאד מטריד.

לצד המאמר הזה, יצא גם מאמר נוסף <a href="https://www.nature.com/articles/s41586-024-07566-y" tar

Comments 
In Channel
loading
00:00
00:00
x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

כשהבינה המלאכותית מאבדת את שפיותה [2-7]

כשהבינה המלאכותית מאבדת את שפיותה [2-7]

אלישע